假如让你从0到1实现一个直播弹幕系统
The following article is from 普通架构 Author 王亚普
IT服务圈儿
有温度、有态度的IT自媒体平台
来源:普通架构(ID:gh_10c16ee9ca59)
作者:王亚普
前言
直播业务现在特别火爆,也给人们的互动方式带来了很多新的改变,比如刷礼物、弹幕、排行榜等等。面对巨大的流量规模,直播技术的发展也备受关注。作为一个技术爱好者,相信你也会对直播的技术比较感兴趣,于是我去翻了几篇文章,了解了直播的技术方案,发现涉及到的技术细节太多,有部分已经是知识盲区,如音频、视频的编码传输等。
斗鱼:如何打造一个高性能、高可用直播系统架构https://www.infoq.cn/article/we4dDaWLO7ZsHLij6AZ9
蘑菇街直播架构 https://cloud.tencent.com/developer/article/1036603
直播相关知识 https://blog.csdn.net/huwei2003/article/details/54599152
直播中弹幕是一个非常亮眼和重要的功能,相比于秒杀架构,直播弹幕系统也有很多有趣的知识可以挖掘,一起来 YY 下如何设计一个直播弹幕系统,不对的地方还请有经验的大佬指出。
直播弹幕系统
直播弹幕是一个读写 QPS 要求都很高,假设一个直播间有 100w 用户同时在线观看,假设弹幕的提交频率为有 10000条/秒,那么需要每秒同时推送给在线用户的次数为 100w * 10000。由此可见,读请求的吞吐量需要远大于写请求,这点类似于 IM 实时聊天。、
架构设计考虑以下几个场景:
支持直播弹幕回放 用户进入直播间可以推送最新几秒的弹幕数据 长连模式和短连模式可以做降级切换
MVP版本
为了不影响读写的性能,采用读写分离架构。
写服务:若不考虑历史弹幕可回放,可以直接使用 Redis 作为唯一存储。若考虑支持弹幕的回放,数据还是需要持久化,可以考虑使用 MySQL 或者 TiDB,暂且认为写入不是较大的瓶颈。如果有更高性能的写需求,HBase、OpenTSDB 等都可以解决问题。 读服务:Redis 主要用于读缓存,缓存直播间最新的弹幕数据,采用直播间 ID 作为 Key。系统读服务最大 QPS = Redis 集群QPS。
Redis 存储结构选择:SortedSet。
提交弹幕:ZADD,score 设置为时间戳。进一步优化可以只存储时间的 delta 值,减少数据存储量。 弹幕查询:ZRANGEBYSCORE 定时轮询弹幕数据。
有什么问题?
系统性能与 Redis 集群容量强相关,性能提升需要扩容 Redis,成本高。 Redis 重复请求较多,相同直播间会存在很多重复的轮询请求。
缓存优化
如果能让最新的实时弹幕数据都能命中本地缓存,那性能是最高的,同时大幅度降低了 Redis 的读取压力。所以弹幕读服务可以每秒轮询 Redis 数据,构建本地缓存。
热点问题:
假设同时在线的直播间有 10000 个,读服务机器有 50 台,那么每秒轮询 Redis 的 QPS = 10000 * 50 = 50w,读取请求线性膨胀。 本地内存的使用量也随直播间的数量增长而膨胀,每个直播间的缓存的数据量降低,导致本地缓存的命中率降低,容易导致 GC 频繁。
热点优化
如何降低本地缓存的使用量?
因为火爆的直播间会占据整个平台大部分的流量,可以只针对火爆的直播间开启本地缓存。 通过路由控制同一个直播间的请求分发到固定的几台机器,例如一致性 Hash 算法。通过减少读服务机器上的直播间数量,达到降低本地缓存使用量的目的。
上述方法可以有效地解决问题,但是不能解决流量不均衡的问题。不同直播间分配的机器资源不是拍脑袋定的,需要有理论依据,可以根据直播间的一些数据指标进行动态分配机器资源。
增加对直播间数据指标的统计,如单机 QPS、集群 QPS、单机直播间在线数等。 关于自适应的负载均衡又是一个可以深挖的话题,在这里我们讨论几个常用的方案,有可能结合起来使用效果更好。 分桶:不同 QPS 的范围段划分为不同的桶,根据桶范围的不同分配的机器数量也是不同的。 最大最小公平分配:根据直播间的 QPS 划分资源需求的权重比例,根据总机器的数量和权重比例来分配机器数量。 启发式算法:遗传算法、蚁群算法等。
单元化架构
单元化可以说是解决性能容量以及容灾的杀手锏。实现单元化需要完成有很多重要的工作,如数据同步 DRC、流量调度等,在此不作展开。
推荐一篇携程的 DRC 实践:携程异地多活-MySQL实时双向(多向)复制实践 https://tech.ctrip.com/articles/a_architecture/3677
客户端长连接推送
为了保障客户端消息的推送性能和实时性,长连接基本是必备的,最新的消息可以直接采用长连接实时推送。
Push Server 从 Redis 中获取用户和直播间的订阅关系以及长连接信息。 连接代理只负责与客户端保持长连接。 海量的消息推送需要批量压缩。
弹幕回放
增加一组专门用于回放的 Redis 集群,同时增加回放的本地缓存,其余设计与上述方案保持一致。
总结
抱着学习的心态,思考了直播弹幕系统的架构应该如何设计,本文主要讨论了以下几个点:
读写分离的架构设计 通过缓存优化读性能 通过路由规则解决直播间流量不均衡的热点问题 长连接的方案设计以及客户端的消息推送
暂时就 YY 这么多吧,做好一个系统还有需要细节需要考虑:高可用、监控、限流降级、延迟优化等。有什么错误和好的实践经验跪求留言。
*版权声明:转载文章和图片均来自公开网络,版权归作者本人所有,推送文章除非无法确认,我们都会注明作者和来源。如果出处有误或侵犯到原作者权益,请与我们联系删除或授权事宜。